NTT R&Dフォーラム2023 特別セッション2:汎用AIはヒトと暮らす夢を見るか?〜 大規模言語モデル tsuzumi の研究開発 〜

NTT official channel
7 Dec 202338:48

Summary

TLDR西田京介氏はNTT人間情報研究所の研究成果を紹介し、大規模言語モデル「tsuzumi」について発表しました。tsuzumiは日本語に特化した小型軽量のAIで、マルチモーダル機能を持ち、社会のwell-beingを目指して開発されています。tsuzumiは、自然言語処理タスクをこなし、人間と協働しながら学習し、自律性を高めることで、未来の生活に溶け込むことを目指しています。また、tsuzumiは、言語間の理解を超え、学習していない言語に対しても応答できるという興味深い能力を示しており、今後のAIの進化に期待を集めています。

Takeaways

  • 📚 大規模言語モデル「tsuzumi」は、NTT人間情報研究所によって開発されており、日本人のwell-beingを目指して研究が進められている。
  • 🌐 tsuzumiは日本語に特化しており、小型軽量で使いやすさと柔軟なチューニングが可能となっている。
  • 🤖 AIと人間の共生について、西田さんは人々のwell-beingを実現するための汎用AIの思考エンジンを目指している。
  • 🚀 tsuzumiは、他の言語にも応答できるクロスリンガルな理解を持っていると推測されており、その理由は今後の研究課題となる。
  • 🧠 LLMの自律性は高くなりつつあるが、社会的規範を守りながらの自己成長が求められている。
  • ✅ tsuzumiは、人間が提供するフィードバックを通じて安全性と有用性を向上させることができる。
  • 📈 LLMの性能は、大量のデータを用いた学習によって向上することが示されているが、大きなモデルは電力消費が問題となっている。
  • 🔍 tsuzumiは、多様性や学習効率、リソース効率を重視し、多数の小型AIが連携して働くことが重要だと示唆している。
  • 📈 Scaling Lawに従って、言語モデルの規模が大きくなるほど性能が向上することが報告されている。
  • 🔧 tsuzumiの開発では、トークナイザの最適化やノイズの除去など、前処理の重要性が強調されている。
  • ⏱️ 西田さんは、tsuzumiが個々人の生活に溶け込み、未来では人々がAIを通じてより豊かな生活を送ることができると予想している。

Q & A

  • 「tsuzumi」という大規模言語モデルの特徴は何ですか?

    -「tsuzumi」は日本の伝統的な楽器「鼓」から名付けられ、日本語処理に特化し、小型軽量で柔軟なチューニングが可能であるという特徴を持っています。また、マルチモーダルに拡張し、多数のAIが連携して社会のwell-beingを実現することを目指しています。

  • tsuzumiが示す「多様性」とは何を指しますか?

    -tsuzumiが示す「多様性」とは、異なる個性を持った多数のAIが連携し、一極集中化ではなく、社会のwell-beingを共に実現するというアイデアを指しています。

  • tsuzumiの開発において、学習データの選択にはどのようなアプローチが取られていますか?

    -tsuzumiの開発では、1兆トークンを超えるコーパスを用意し、専門文書からエンタメまで幅広く学習しています。また、日本語の比率も重要視されており、他の言語モデルと比べて日本語をメインに据える学習戦略が取られています。

  • tsuzumiはどのようにして他の言語についても応答できる能力を持っているのか説明してください。

    -tsuzumiは事前学習段階で多言語のテキストを学習しており、その結果、英語と日本語だけでなく中国語など他の言語に対しても指示に応答できる能力が発現していると考えられます。これは言語間の統一的な理解がLLMの内部で形成されているから可能になっていると推測されます。

  • tsuzumiのRakudaベンチマークでの性能はどのようにですか?

    -tsuzumiはRakudaベンチマークでGPT-3.5に対して50%の勝率を記録し、他の国産のLLMに対しても高い勝率を達成しました。これは日本語処理においてtsuzumiが優れていると示唆しているとされています。

  • tsuzumiはどのようにして人間と共生できるように開発されていますか?

    -tsuzumiは人間と同じようなインタフェースを持つこと、マルチモーダルなタスクを実行できること、またリアルタイムで情報を処理できるように開発されています。これにより、人間社会に自然に溶け込み、共生できるようになることが期待されています。

  • tsuzumiの自律性について述べているNVIDIAの成果とは何ですか?

    -NVIDIAの成果では、LLMを使用してゲーム「マインクラフト」をプレイする自律型エージェントが発表されています。このエージェントはゲーム内の世界を探索し、状況に応じてプログラムコードを生成し、ゲーム内のスキルとして保存して再利用できる能力を発揮しています。

  • tsuzumiが学習する際に使用されるコーパスの言語バランスはどのように決まりますか?

    -tsuzumiの学習コーパスは日本語をメインに据える一方で、英語やプログラムコード、他にも21言語の多言語データを含めており、幅広いカテゴリからデータを収集しています。このバランスは、日本語処理能力を高めながらも他の言語の理解も可能にするために調整されています。

  • tsuzumiの開発において、トークナイザの学習にはどのような工夫がされていますか?

    -tsuzumiの開発では、トークナイザを学習する際に日本語の単語を自然な形に近くなるように工夫を入れています。これにより、自然な形で日本語の文脈を理解する学習が可能になります。

  • tsuzumiはどのようにして人間と自然なコミュニケーションを可能にするために開発されていますか?

    -tsuzumiはマルチモーダルなタスクを実行できるようにし、言語だけでなく視覚や音声などの他のモーダルとの連携を目指しています。これにより、人間と同じインタフェースを持つことや、人間と同じ情報をリアルタイムで処理することが可能になり、自然なコミュニケーションを可能にしようとしています。

  • tsuzumiの安全性と規範の遵守に関して、今後どのような取り組みが必要ですか?

    -tsuzumiの安全性と規範の遵守のために、強化学習を用いて人間がフィードバックを与えることで規範を与えていく学習戦略が取られています。また、システムプロンプトとしてルールを与えることで出力を安全に導く取り組みも行われています。これらの取り組みを通じて、tsuzumiが安全で規範を遵守する存在として成長するように開発を進めています。

Outlines

00:00

😀 大規模言語モデル「tsuzumi」の紹介とR&Dフォーラムの概要

NTT人間情報研究所の西田京介が、大規模言語モデル「tsuzumi」について紹介し、R&Dフォーラムの内容と見どころを紹めた。tsuzumiは、汎用AIの研究開発を手伝うパートナーとして機能し、R&DフォーラムではLLMが注目され、展示コーナーが設けられた。tsuzumiは、汎用AIの現状、tsuzumiの研究開発、ヒトとAIの共生など、重要なポイントを挙げ、講演の3つのパートに分ける提案をした。

05:04

📚 LLMの基礎知識と学習プロセス

近年のLLMの発展により、汎用AIは夢ではなくなった。ChatGPTは1つのモデルで多様なタスクを処理し、情報検索や言語処理タスクが可能になった。ニューラルネットワークは、テキストをトークンに分割し、ベクトルに埋め込んで変換し、最終的に情報を出力する。言語モデルは、単語列の自然さをモデル化し、次の単語を予測する。事前学習とファインチューニングが基本戦略となっており、BERT以降の戦略が説明された。

10:04

🤖 ChatGPTのようなLLMの作り方とtsuzumiの特徴

LLMを作るプロセスには、教師なし学習からインストラクションチューニング、人間フィードバックによる報酬モデル作成、強化学習によるチャットモデルの鍛え方などが含まれる。tsuzumiは、小型軽量で日本語に強い特徴を持っており、マルチモーダルに拡張できる。tsuzumiは、多様性や学習効率、リソース効率を重視し、個々のAIが連携して社会のwell-beingを実現する未来を目指している。

15:07

🌏 tsuzumiの評価と学習プロセスの紹介

tsuzumiは、Rakudaベンチマークという日本の知識に関するQAセットで評価され、GPT-3.5と匹敵する性能を示した。tsuzumiの学習には、コーパスの準備、事前学習、インストラクションチューニング、人間フィードバックによる報酬モデルの作成が含まれる。tsuzumiは、日本語をメインに据える学習戦略を採用し、トークナイザの学習や前処理のノイズ除去にも力を入れた。

20:12

🌟 tsuzumiの学習データと汎用性の例

tsuzumiは、学習データに触れたことのない新しい指示にも応答できる能力を示した。例として、中国語の理解や文学とライトノベルの比較を表形式で提示する能力が挙げられた。これは、tsuzumiが事前学習段階で得た言語間の理解が活かされていると推測される。

25:12

🤖 ヒトとAIの共生とtsuzumiの自律性

講演者は、ヒトと自然に共生可能な汎用AIの思考エンジンを目指している。tsuzumiは、マルチモーダルのタスクや身体行動のタスクをこなせるようになることが重要で、言語を中心に設計し、非言語情報を結びつけることで付加価値を出そうとしている。自律的なエージェントの例として、ゲームをプレイするLLMやChatDevという仮想のソフトウェア開発会社が紹介された。一方で、LLMの自律性にはリスクが伴うとされ、社会の規範を守るよう制約を設けることが求められている。

30:15

🔍 tsuzumiの応用と未来の展望

tsuzumiは、今後スマートフォンなどの身近なデバイスで動かすことが見込まれており、個々人が自分専用のLLMを持つことが可能になるだろう。しかし、毎日成長するLLMを実用的なデバイスに収容する課題をクリアする必要がある。講演者は、tsuzumiが安全・安心なものとして、人々のwell-beingを実現するための存在になるよう、研究開発を進めていくと述べた。

Mindmap

Keywords

💡汎用AI

汎用AI(汎用人工知能)は、特定のタスクだけでなく、広範なタスクをこなせるAIのことを指します。ビデオの中では、汎用AIがヒトと共に暮らす未来の可能性について議論されています。例として、ChatGPTがさまざまな自然言語処理タスクを特化した学習なしで処理できることが述べられています。

💡大規模言語モデル

大規模言語モデル(LLM)は、膨大なデータセットを用いて学習された自然言語処理モデルです。ビデオでは、NTTの「tsuzumi」という大規模言語モデルについて紹介されており、その研究開発のプロセスや応用例について詳細に説明されています。

💡tsuzumi

tsuzumiはNTTが開発した大規模言語モデルで、日本語に特化し、小型軽量で柔軟なチューニングが可能な特徴を持っています。ビデオでは、tsuzumiがどのようにして開発され、どのような性能を発揮するかについて詳しく紹介されています。

💡事前学習

事前学習は、大規模言語モデルの開発において、膨大なテキストデータを用いて行う初期の学習プロセスを指します。ビデオでは、GPT-3やBERTが事前学習を通じてどのようにして高い言語理解能力を獲得するかについて説明されています。

💡ファインチューニング

ファインチューニングは、事前学習されたモデルを特定のタスクに適用するために、追加のデータで微調整するプロセスです。ビデオでは、BERTのファインチューニングがどのようにして行われ、特定のタスクに対してどのような効果を発揮するかが説明されています。

💡インストラクションチューニング

インストラクションチューニングは、モデルが自然言語の指示に応答できるようにするための学習プロセスです。ビデオでは、tsuzumiがインストラクションチューニングによって、日本語での指示に対して適切な応答を生成する能力を持つことが説明されています。

💡強化学習

強化学習は、モデルが報酬を最大化するように行動を学習するプロセスです。ビデオでは、tsuzumiのような大規模言語モデルが強化学習を通じて、より人間のフィードバックに基づいた適切な応答を生成する能力を身につける方法について説明されています。

💡クロスリンガルな理解

クロスリンガルな理解は、複数の言語にまたがる言語理解の能力を指します。ビデオでは、tsuzumiが日本語以外の言語にも対応できるようになるために、事前学習の段階でどのようにクロスリンガルな理解を身につけるかが説明されています。

💡システムプロンプト

システムプロンプトは、モデルに特定のルールや指示を与えるためのプロンプトです。ビデオでは、Meta社がシステムプロンプトを使用してモデルの出力を安全にする方法が紹介されており、tsuzumiでも同様の取り組みが行われていることが説明されています。

💡ヒトとAIの共生

ヒトとAIの共生は、人間とAIが共に暮らし、協力し合う未来のビジョンを指します。ビデオでは、tsuzumiを使ってヒトとAIがどのように共生し、社会のwell-beingを実現していくかについてのビジョンが語られています。

Highlights

西田京介がNTT人間情報研究所の研究成果を紹介し、大規模言語モデル「tsuzumi」について発表

tsuzumiはヒトとAIの共生について研究し、汎用AIの現状や進化について解説

大規模言語モデルLLMが急速に発展し、汎用人工知能が現実に近づいていると述べる

tsuzumiは日本語に強い小型軽量のモデルを目指しており、マルチモーダルな拡張を可能に

tsuzumiは1兆トークン以上のコーパスを用意し、幅広いテキストから学習している

tsuzumiはRakudaベンチマークでGPT-3.5と匹敵する性能を示し、日本語処理で優れている

tsuzumiは事前学習とインストラクションチューニングを通じて、汎用性が高まる

tsuzumiは人間が作った入力に対して複数の出力を生成し、人間が選別することで学習する

tsuzumiは報酬モデルを用いて強化学習を通じて、人間好みの出力を導く

tsuzumiは言語モデルの知覚を拡張し、視覚的情報を読み取ることができる

tsuzumiは自律性を持ち、ゲームプレイやソフトウェア開発など自律的に行動できる

tsuzumiは規範を持ち、人間社会の規範を遵守しながら行動する能力を持っている

tsuzumiは多言語のテキストを学習し、言語間の理解を深めることでクロスリンガルな能力を発揮

tsuzumiは小型軽量であり、将来的にはスマートフォンなどの身近なデバイスで使用可能になる

tsuzumiは個々人が持つことができる汎用AIとして、未来の生活に深く関与する可能性がある

tsuzumiは安全・安心を重視し、倫理的な問題やコミュニケーションの課題に取り組む

tsuzumiは人間と共生し、人々のwell-beingを実現するための存在として成長を目指す

Transcripts

play00:13

皆さん こんにちは。 NTT人間情報研究所の西田京介と申します。

play00:18

本日は「汎用AIはヒトと暮らす夢を見るか? ~大規模言語モデルtsuzumiの研究開発~」

play00:23

と題しまして 発表させていただきます。

play00:26

本日は私たちの研究開発をしております 大規模言語モデルである「tsuzumi」にも

play00:31

発表を手伝っていただこうと思っております。 どうぞよろしくお願いいたします。

play00:38

早速ですが 講演に先立ちまして tsuzumiから皆様へ ご挨拶と

play00:43

R&Dフォーラムの見どころというところを 紹介してもらおうと思います。

play00:54

こちらは 実際にtsuzumiが出力した 対応となりますが

play00:58

今回のR&Dフォームでは 大規模言語モデル LLMが大きくピックアップされております。

play01:03

地下の1階に LLMの展示コーナーがありますので

play01:06

まだ ご覧になっていただいてない方が おられましたら

play01:09

ぜひ このあと お立ち寄りいただければ 幸いでございます。

play01:12

また続きまして 今回の講演に関して tsuzumiに どのようにすると

play01:17

皆様に喜んでいただけるかというのを 相談してみた結果を共有いたします。

play01:29

こちらに示しますように tsuzumiからは「汎用AIの現状」であるとか

play01:34

「tsuzumiの研究開発をどのように行ったか」

play01:37

また「ヒトとAIの共生は どのように行っていくべきか」などの

play01:40

ポイントを挙げてくれました。

play01:42

このように 私が実際に 講演の内容を考えるにあたって

play01:46

私のパートナーとして しっかりと 役に立ってくれるような出力をできる

play01:50

そうしたレベルまでtsuzumiというものが 成長してまいりました。

play01:56

今回は tsuzumiが挙げてくれた ポイントに従って

play02:00

この3つのパートに分けて 講演を進めていこうと思います。

play02:03

まず1つ目のパートでは LLMとは何か?

play02:07

この点に関して 基礎知識のところから 触れていこうと思います。

play02:11

続いて tsuzumiについて

play02:13

どのようなモデルであるかというところを 紹介してまいります。

play02:17

最後に「ヒトとAIの共生」を 未来のAIというところで

play02:22

ご紹介していければと思います。

play02:27

まず最初は「LLMとは何か?」というところを ご説明してまいります。

play02:33

近年のLLMの急速な発展によりまして

play02:36

汎用人工知能というものは 遠い夢ではなくなってまいりました。

play02:41

ChatGPTにより 1つのモデルで さまざまな自然言語処理タスクを

play02:45

特化した学習することなしに

play02:48

タスクを処理できるということが 実証されてきています。

play02:52

皆様ご存じのとおり 情報検索におきましては

play02:56

キーワードで検索するのではなくて

play02:58

自分が欲しい内容を 直接 入力することによって

play03:01

欲しい情報を簡単に そして より情報要求に見合ったものを

play03:05

アクセスできるということが 可能になってきました。

play03:09

また AIがヒトに代わって

play03:11

任意の言語処理タスクを 遂行するということも可能になっています。

play03:15

特にプログラムコードの開発支援などでは 目覚ましい成果を上げております。

play03:21

また コンテンツの生成におきましては ヒトが生成したものとAIが生成したものを

play03:26

見分けがつかないようなレベルまで 成長するというような状況になってきました。

play03:31

これを受けて AIの学術的な会議である ICMLという会議では

play03:36

LLMによる論文の執筆を禁止するなど

play03:39

社会の在り方に 大きな影響を及ぼし始めています。

play03:43

さらに GPT-4に至っては

play03:46

人間の司法試験の模擬試験に 合格するようなレベルに達するなど

play03:51

ヒトレベルの言語理解 生成能力というものを身につけ始めています。

play03:59

これからChatGPTが どのようなテクノロジーで作られているか

play04:02

というところを 基礎から順を追って説明してまいります。

play04:06

まずは現代の自然言語の処理においては

play04:08

ニューラルネットワークと呼ばれるものが 使われております。

play04:12

ニューラルネットワークにおきましては 入力テキストが与えられますと

play04:16

そちらを まずはトークンと呼ばれる単位に 分割していきます。

play04:21

このトークンは この講演の中では いわゆる単語のようなものとお考えください。

play04:27

このトークンをニューラルネットワークでは

play04:29

まず 扱いやすいように ベクトルへ埋め込むということをいたします。

play04:34

ニューラルネットワークの中には レイヤーが複数個 重ねられておりまして

play04:38

このベクトルの系列を変換するということを 繰り返し 繰り返し行っていきまして

play04:44

最終的に欲しい情報を出力するというような 流れで処理が進んでいきます。

play04:49

例えばテキストを分類したラベルであったり 新しく生成したテキスト

play04:55

また テキストの情報を ベクトル 数値化することで特徴量とする

play04:59

こうしたものが出力情報にあたります。

play05:04

ニューラルネットワークに 自然言語の処理を行わせるためには

play05:07

学習を行う必要があります。

play05:09

タスクの多くは「分類問題」として

play05:12

ニューラルネットワークの出力を 正解に 近づけるように学習を行ってまいります。

play05:17

例えば テキストを 2つのクラスに分類するというタスクでは

play05:21

入力されたテキストに対して 2次元のベクトル 数値を2つ出力します。

play05:27

それぞれの次元には ポジティブやネガティブといった

play05:30

意味をアサインしておきまして

play05:32

この例ですと ネガティブが正解クラスであるので

play05:35

そちらのクラスの値を大きく。

play05:38

また ポジティブクラスの方は不正解なので 値を小さくするというような処理を行います。

play05:45

続いて テキストを生成するようなタスクとして

play05:48

入力に続く 次の単語を予測するという タスクについて考えます。

play05:53

ここでは 生成する候補となる 「語彙」という単語の集合のサイズの分だけ

play05:59

ベクトルを出力しまして 正解の単語に値するところの次元を大きく

play06:05

他の次元のところは 小さくするといったような処理を行います。

play06:11

このように分類問題を解くことで ニューラルネットワークを

play06:13

賢くしていくというところは 基本の戦略になります。

play06:18

さて 言語モデルと呼んできましたが こちらの言語モデルとは

play06:23

単語の並びの尤もらしさ(自然さ)を モデル化したものとなります。

play06:29

1からtまでの単語列というものが 与えられると t+1の次の単語を予測する。

play06:35

この単語が出るはずだという確率を モデル化するのが言語モデルとなります。

play06:40

言語モデルの学習には たくさんのテキストを使うのですが

play06:45

そこにヒトが正解情報を与える必要はなく

play06:48

テキストさえあれば 次の単語を予測する また次の単語を予測するといった形で

play06:53

情報を付加するコストをかけることなく

play06:55

学習できるというところが 事前学習のメリットとなります。

play07:01

こうして作った事前学習のモデルを ファインチューニングを行って

play07:05

目的とするタスクに応用していくというのが 基本的な戦略としてとられております。

play07:11

このファインチューニングには

play07:13

ここでは ヒトが正解情報を用意して 学習するということを行っておりまして

play07:17

事前学習が行われるような前では 学習データを

play07:20

数万件とか 数十万件 用意しなければいけなかったものを

play07:24

事前学習を行ったことで ファインチューニングのデータが

play07:27

数千件ですとか 数百件の単位まで 減ってきたというところが

play07:31

事前学習の大きな効果となりました。

play07:35

この事前学習を行って 次にファインチューニングをするという

play07:39

戦略が主流になってきたのが

play07:41

2018年に発表された GoogleのBERT以降となります。

play07:45

BERTは大量のテキストデータで 事前学習をした巨大な言語モデルでして

play07:51

入力の一部を隠して その隠された単語の前後の情報を使って

play07:57

隠された部分を復元するというような 事前学習を行っております。

play08:02

こうして作った基盤となるモデルを ファインチューニングしていくのですが

play08:06

今回は 機械読解というタスクをご紹介します。

play08:09

機械読解というタスクでは 与えられた質問に対して

play08:13

テキストを読み解いて 回答となる部分を 見つけるというようなタスクになります。

play08:18

こちらのタスクは いわゆる文章読解力を 試すようなタスクとなりますが

play08:23

このタスクで人間超えの しかも 大幅に スコアを更新するという性能を出しまして

play08:29

大きな注目を集めるというような 状況になりました。

play08:35

その約2年後にOpenAIから GPT-3というモデルが発表されます。

play08:41

こちらは さらに超大量のテキストデータ

play08:43

そして モデルも 大幅にサイズアップしています。

play08:47

パラメータは1,750億個まで増えまして

play08:51

BERTに比べて 500倍のサイズとなっております。

play08:55

このパラメータというのは訓練可能な

play08:58

いわゆる数値データと お考えいただきたくて

play09:01

1,750億個の数値データを調整することで 言語モデルを学習しております。

play09:07

GPT-3の事前学習ではBERTとは異なりまして

play09:10

次の単語を予測するというタスクで 事前学習を行ってまいります。

play09:14

この例ですと「Japanese」の次に どういう単語がくるのかというものを当てる。

play09:19

また次の単語を どのようなものがくるか 当てるというところで

play09:23

こちらも たくさんのテキストさえあれば 学習できるというようなタスクになります。

play09:29

GPT-3では たくさんのテキストを学習することで

play09:33

今度はファインチューニングすら必要なしに

play09:35

新しい問題を解くということが 可能になってまいりました。

play09:39

こちらの例は 翻訳に関する例なんですが

play09:42

最初に 英語からフランス語に 翻訳してください。

play09:45

そのあとに数個の例題を見せて 最後に解かせたいものを入力する。

play09:50

このようなやり方をとることで パラメータを更新することなく

play09:54

自分の解きたいタスクを指示して 処理してもらう。

play09:57

こうしたことが可能になってまいりました。

play10:00

このようなことが可能になってきているのは たくさんの学習データの中には

play10:04

こうした指示 そして 指示に関する例題というものが

play10:07

テキストのコーパスの中には 含まれておりまして。

play10:10

それらを次の単語を予測するというのは タスクで学習していきますと

play10:14

自然と こうした指示に従う 能力というものが身につき始めています。

play10:22

それでは いよいよ 「ChatGPTのようなLLMの作り方」という

play10:26

パートに入っていきます。

play10:28

こちらは 教師なし学習によって まず先ほど ご説明したような

play10:32

GPT-3のような ベースとなるモデルを作っていきます。

play10:37

続きまして さまざまなタスクを 自然言語による指示で解けるように

play10:42

インストラクションチューニングと呼ばれる プロセスを行います。

play10:46

こちらは 指示に対して その時にLLMが出力すべき

play10:50

望ましい応答というものを ペアデータを用意しておきまして

play10:53

これによって 教師あり学習を行いまして チャットモデルを作ります。

play11:00

次に このモデルを作りまして

play11:02

人間が作った入力に対して LLMに複数個 出力をさせます。

play11:07

その時に ヒトが 学習のループの中に入りまして

play11:11

どちらの方がモデルの出力として よいのかというものを比較評価します。

play11:15

これを プリファレンスデータと呼びますが

play11:19

こちらのデータを使いまして 報酬モデルというものを次に作ります。

play11:23

この段階で報酬モデルには ヒトがフィードバックを与えた

play11:27

ヒトの感覚に合うような出力がされると

play11:29

高いスコアを出すようなモデルとして 作られています。

play11:34

最後のステップとしまして この報酬モデルが高いスコアを出すように

play11:39

強化学習と呼ばれる枠組みを使って チャットモデルを鍛えていきます。

play11:44

このあとは3に戻って ループが始まっていくのですが

play11:47

このようにヒトが学習のループの中に入って

play11:50

ヒトの感覚に合うような 出力に誘導していくということが

play11:54

ChatGPTのようなLLMを作る際には 行われております。

play12:02

先ほどの学習ステップの ステップ2にありました

play12:05

インストラクションチューニングについて 補足をいたします。

play12:09

BERTのような インストラクションチューニング以前の

play12:11

チューニングにおきましては こちらの例に示すように

play12:15

タスクを言語的に説明するといったことは モデルに対しては与えずに

play12:19

入力と出力を直接 与えて データドリブンに学習を行っていました。

play12:26

このため 出力の場合 この例ですと 「0」「1」「2」と出しますが

play12:30

「0」がどういう意味を持つのかというのは BERT自身は知らない。

play12:33

知らないまま学習をしています。

play12:37

一方で インストラクションチューニングに おきましては

play12:40

タスクの説明 出力の意味など 全て言語で与えていきます。

play12:44

このように 指示と応答を言語で与えて その関係性を学習することによって

play12:49

汎用性が これまでに比べて 大きく上がるといった結果になりました。

play12:56

最後に パート1の締めくくりとして

play12:59

言語モデルの大規模化について 触れていきます。

play13:04

大量の計算機やデータを使って また 巨大なモデルで学習すればするほど

play13:09

性能が向上する Scaling Lawという 経験則が発表されています。

play13:14

このScaling Lawは いまだ破られておりません。

play13:18

大規模化することで 性能を上げるといったような流れが

play13:21

最近の主流になっております。

play13:23

左上に小さい点で 「BERT」は書かれておりまして

play13:26

丸の大きさが 言語モデルのサイズを 表しておりますが

play13:31

大変 大きいモデルが どんどんと各社から発表されております。

play13:35

一方で こうした巨大なモデルは 精度が高いのですが

play13:39

学習や運用時に 電力をたくさん消費してしまうですとか

play13:43

運用に大きなコストがかかってしまう というような問題がございます。

play13:51

このような背景を踏まえて 私たちは

play13:53

tsuzumiの研究開発に 取り組んでまいりました。

play13:59

私たちの大規模言語モデルtsuzumiは

play14:01

日本の伝統的な楽器である「鼓」から その名前をとっております。

play14:07

tsuzumiの特徴になぞらえて 私たちは日本語に特に強く

play14:12

また小型軽量で動き チューニングも柔軟に。

play14:16

またマルチモーダルに 拡張していけるといったような

play14:19

特徴を持たせるべく 研究開発に取り組んでまいりました。

play14:22

小型軽量であるというところを 明確に選択していることは

play14:26

昨今の大規模言語モデルの大規模化とは 相反する流れではありますが

play14:30

私たちは LLMの大規模化・一極集中化ではなくて

play14:34

異なる個性を持った 多数のAIが連携することによって

play14:38

ヒトと一緒に 社会のwell-beingを 実現するという未来をめざして

play14:42

研究開発を進めております。

play14:47

ここで 小型軽量のAIの連携に メリットは本当にあるのかというところを

play14:51

tsuzumi自身に聞いてみようと思います。

play14:57

ここでも示してくれているように 多様性や学習効率

play15:01

また リソース効率といったような キーワードを

play15:03

tsuzumiが挙げてくれております。

play15:07

これは 特別なチューニングを 私たちが行っているわけではありませんが

play15:10

私たちの狙いと同じようなところを

play15:13

tsuzumi自身も挙げてくれた結果となると 思います。

play15:17

まず 複数個のLLMの連携において多様性が どう重要かというところですが

play15:23

少ないパラメータ 小さいモデルであっても

play15:26

精度のよいモデルを作るということは 十分 可能だと私たちは考えております。

play15:31

そうした小さなAIが それぞれに 強みを持って連携し合うということで

play15:36

より巨大なモデルに対しても ロバストで

play15:40

性能のよいシステムというものを 十分 できるのではないか。

play15:43

そうした方向で研究開発を進めております。

play15:47

また 使いながら賢くなるLLMというのも ぜひ実現したいと考えています。

play15:52

複数の環境下でヒトと接して学んでいき

play15:56

その学習結果を全体として また共有することができれば

play16:01

システム全体としての 学習スピードというものは

play16:03

非常に速くなっていくと考えております。

play16:07

また最後に IOWNの 高速大容量のネットワークを生かしまして

play16:12

遠く離れた拠点にある GPUの計算機資源をつなぐことによって

play16:16

学習のコストであるとか 運用のコストというものを

play16:19

減らしていきたいと考えております。

play16:22

この辺りは ネットワークに強みを持つ NTTならではの

play16:25

ビジョンではないかと 考えております。

play16:31

それでは ここからは tsuzumiの評価に関しまして

play16:34

現状の能力を 皆さんにお伝えしたいと思います。

play16:38

本日はRakudaベンチマークと呼ばれる 日本の地理や政治 歴史 社会の

play16:44

4つのカテゴリに関するQAが含まれた 評価セットの結果をご紹介いたします。

play16:51

この例では こちらのスライドに示しますように

play16:55

さまざまな日本の知識を問うような 問題というものが含まれております。

play17:01

このベンチマークの特徴としましては

play17:03

質問に対して モデルの出力を2つ用意しまして

play17:07

その出力のどちらが優れているかというのを

play17:10

今 一番優れた言語モデルであるGPT-4に 判定をしてもらうということにします。

play17:16

GPT-4では有用性や関連性 正確性 詳細度 また日本語の流暢さ

play17:23

こうした観点から総合的に どちらの言語モデルの出力がよいのか

play17:28

勝ち負けをつけるということを行います。

play17:32

このスライドの例では 詳細度の観点で

play17:36

tsuzumiの方がよいとGPT-4が判定して

play17:40

tsuzumiが1勝というような形で スコアづけしてくれて

play17:44

それを たくさんの入力に対して行っていく というようなベンチマークになります。

play17:50

最終的な結果としてましては

play17:52

tsuzumiはGPT-3.5に対して 勝率50%に到達する

play17:57

GPT-3.5と このベンチマークにおいては 匹敵するような性能というものを出しました。

play18:03

また 他の国産のLLMに対しても

play18:06

大きく勝率を上回るというような 結果を得ています。

play18:11

こちらのベンチマークは 一つ 日本語処理において

play18:14

tsuzumiが優れているというところの

play18:16

エビデンスになっているのではと 考えております。

play18:22

続きまして tsuzumiの学習を どのように行ってきたのかというところを

play18:25

ご紹介していこうと思います。

play18:29

最初に 学習に関する タイムラインをご紹介しますと

play18:32

BERTが登場した後に 私たちは

play18:35

機械読解と呼ばれる AIに言葉を理解させるような能力であるとか

play18:40

日本語モデルで当時最大1.6ビリオンの 対話モデルを発表するといったような

play18:45

取り組みを行っておりました。

play18:48

特に機械読解というトピックにおきましては

play18:51

このように テキストのままに理解するのではなくて

play18:55

文章を見たまま 図表なども含めて 理解させるといったような研究に

play18:59

世界に先駆けて取り組んでおりまして

play19:01

国際コンペティションなどでも 上位入賞の成果を果たしておりました。

play19:07

そこから ChatGPTが 2022年の年末にリリースされまして

play19:11

すぐに これは世界を変えるような 技術になると捉えまして

play19:15

LLMのプロジェクトというものを スタートいたしました。

play19:21

学習に必要なデータであるとか 計算機資源というものを確保しまして

play19:25

6月末頃から事前学習を開始しました。

play19:29

当初は 失敗の連続でしたが 8月に初めて成功。

play19:33

また そこからたくさんの ノウハウというものを積んでいきまして

play19:38

今月の1日には tsuzumiを発表できるというような

play19:42

レベルまで到達することができました。

play19:47

まず LLMの事前学習におきましては

play19:50

コーパス 学習データというものが 非常に重要となります。

play19:54

LLMによって どのようなデータを どれぐらいの量で学習するかというところは

play19:58

さまざまでして 一番左上のモデルでは

play20:02

Webpages 100%で学習しておりますし 一番右下のモデルでは

play20:06

プログラムコードのみで LLMを作るということを行っております。

play20:11

Meta社によるLlama 2では 2,000ビリオン 2兆トークンで学習するなど

play20:17

最近は いかに質のよいテキストを 大量に学習させるかというところが

play20:21

重要視されております。

play20:24

私たちのtsuzumiでは

play20:26

1兆トークン 1,000ビリオントークン以上の コーパスを用意しまして

play20:31

専門文書からエンタメまで 幅広く学習するということを行っております。

play20:38

また 言語の比率に関しても重要といえます。

play20:42

Llama 2など 海外のLLMにおきましては

play20:45

日本語が含まれている比率というのは 非常に少ないです。

play20:50

Llama 2では 0.1%程度しか 日本語は入っておりませんが

play20:54

それでも日本語に関する能力を しっかり 身につけているということができます。

play20:59

ここで 研究課題としましては では 日本語をメインに据えるのであれば

play21:04

どのような言語のバランスで学習コーパスを 用意すればよいのかというところがあります。

play21:10

各社 言語モデルを発表しておりますが 日本語のみで学習するところですとか

play21:15

日本語と英語を バランスよく学習させるところ

play21:18

また 英語をメインに学習して 日本語を補助的に使うところと

play21:23

さまざまな戦略がとられております。

play21:26

また最近では 既存の 海外製のLLMというものを用意しまして

play21:31

そちらに日本語のデータで 追加学習するといったようなアプローチで

play21:35

これも有望な結果が生まれ始めています。

play21:38

今回 私たちは 独自に ゼロからLLMを作るということを行いました。

play21:44

たくさんのテキストデータを用意しまして 日英を中心にプログラムコードであるとか

play21:50

他にも21言語の 多言語のデータというものを含めまして

play21:54

さまざまなタスクに対応可能な

play21:56

下地となるベースモデルを 作ろうとしております。

play22:03

また 前処理なども地味ですが 重要なタスクとして考えております。

play22:09

まずは トークナイザと呼ばれる テキストをトークンに分割する際に

play22:13

我々は工夫を入れておりまして 日本語の単語

play22:16

自然な単語に近くなるように トークナイザを学習しております。

play22:22

こうした単語の分割というものを考慮せずに トークナイザを作りますと

play22:26

左側に示すように 例えば「に関する法律」ですとか

play22:30

「年法律第」といったような このコーパスでしか

play22:34

あまり現れないようなものが 1つのトークンとして存在してしまいます。

play22:39

私たちのモデルですと 日本語の切れ目 単語の分割というところを考慮して

play22:44

トークナイズしますので

play22:46

自然な形で日本語の文脈を理解するような 学習が可能になります。

play22:53

また トークナイザ以外にも 前処理 ノイズを いかに減らすかというところを

play22:58

取り組んでおります。

play23:00

さまざまな処理を行いまして 言語モデルの学習には不必要な

play23:04

ノイズとなるようなテキストというものを できるかぎり除去したうえで

play23:08

1兆トークン以上集めまして 学習を行っております。

play23:14

こうした部分が LLMの質を高めるために 非常に重要と考えておりまして

play23:19

私たちが長年 取り組んできました 自然言語処理のノウハウというところを

play23:23

ここに投入して LLMの品質を 高めるということをしております。

play23:27

またインストラクションチューニングという

play23:29

ChatGPTを作るための 重要なプロセスに関しても

play23:33

独自にデータを作るというところを 行っております。

play23:36

幅広いカテゴリの質問や指示というものを 用意しまして

play23:40

こちらを我々自身が作って 学習に使うということを行っております。

play23:46

スライドに示している例は 我々が作ったデータの一例でございますが

play23:50

こうしたデータを 実際にChatGPTなどに入れてみますと

play23:54

誤った出力が返ってくるような そういったものもあります。

play23:57

人手で しっかりとした 品質の高いデータを作ることが重要で

play24:01

そういったデータを これからも 便利になるというような方向性でのデータ

play24:06

また 安全に使うといった方向性での データというものを

play24:09

整備 拡大していこうと考えております。

play24:15

ここで またいくつか LLMの出力例を ご覧になっていただこうと思います。

play24:19

こちらは「NTTの強みとか特徴に関して 教えてください」と。

play24:24

「回答は英語でお願いしますね」というのを 中国でtsuzumiに聞いてみた例になります。

play24:35

こちらに示すように tsuzumiは

play24:37

こういった学習データというものは 全く学んではいないものの

play24:42

新しい指示に対して言語の壁を超えて 回答するということができております。

play24:47

こうした能力が発現するのは

play24:49

非常に 研究者としても 不思議なところでございまして

play24:53

学習データが少なくても 日本語を中心に学習していても

play24:56

他の言語に関して こうして対応してくれるというところが

play25:00

なぜ起きるのかというところは

play25:02

研究対象として 今後 取り組んでみたいなと 思っているところになります。

play25:08

また もう一つ「純文学とライトノベルの 違いを教えてください」

play25:12

「表形式で教えてください」という 質問の結果をご紹介します。

play25:19

こちらも 指示どおり 純文学とライトノベルの違いというものを

play25:24

表でまとめてくれていますが 面白いところとしましては

play25:28

2つのアイテムを どのような観点で比較すれば

play25:30

ヒトにとって面白いのか

play25:32

情報として価値があるのかというのを LLM自身が

play25:35

考えてくれているというところになります。

play25:37

こちらも この2つのアイテムに関して 学習をさせているというわけではないので

play25:42

さまざまな情報から 例えば テーマで比較すべきだとか

play25:46

背景で比較すべきだとか そういった情報を

play25:48

自分で考えれるような 汎用性を持てているというのが

play25:51

LLMの面白いところ 不思議なところとなります。

play25:58

それでは 最後のパートとして 「ヒトとAIの共生」について触れていきます。

play26:05

私のビジョンとしましては あらゆる環境で ヒトと自然に共生可能な

play26:10

汎用AIの思考エンジンを創りまして

play26:12

人々のwell-beingを実現していきたいと 考えております。

play26:16

計算機の中のコラボレータであるとか

play26:19

人生のパートナーとして ヒトと一緒に働いたり

play26:22

成長したりするようなロボットを 作りたいと考えています。

play26:27

今回のタイトルは「ヒトと暮らす夢を AIは見るか?」というものにしましたが

play26:31

このクエスチョンには 機能面の観点と動機という

play26:35

2つの重要な側面があると考えています。

play26:40

まず 機能面に関しまして

play26:42

社会に自然に溶け込んでいけるか というところですが

play26:46

ヒトの社会に自然に入り込んで ヒトと一緒に暮らしていくためには

play26:51

ヒトと同じようなインタフェースを持って マルチモーダル 言語以外の視覚や音声など

play26:56

さまざまなモーダルのタスクや 身体行動のタスクというものができなければ

play27:00

なかなか 共生というのは 難しいと考えています。

play27:04

特に知覚におきましては AIのために

play27:07

ヒトが今は合わせるというようなことを 行っています。

play27:09

ヒトが前処理を行わなければ AIは動くことができませんが

play27:13

こうしたレベルを脱却しまして ヒトと同じ情報を

play27:16

リアルタイムに扱えるような そんなAIを めざしていきたいと考えています。

play27:22

そのためには 言語を中心にした設計が 重要と考えておりまして

play27:26

今回 作りました tsuzumi LLMを AIの核として配置しまして

play27:31

さまざまな非言語情報を結びつけることで

play27:33

付加価値を出していきたいなと 考えております。

play27:38

こちらは 言語モデルの知覚の拡張としまして

play27:41

視覚と言語理解を融合させた例になります。

play27:45

左側は 文書の理解を 視覚的に行うというところで

play27:49

瓶に書かれたラベルを読み取ったり

play27:51

また 手書きの伝票などを理解できるように なってきたという例になります。

play27:58

右側に関しましては 画像とテキストを

play28:02

同じ意味であれば 意味空間上で近くに配置されるような

play28:07

同じようなベクトルに変換するための 技術というものも作っております。

play28:13

こうした技術を結集しまして 今回のフォーラムでは

play28:16

tsuzumiと視覚的に読解ができる そうしたモデルを展示しております。

play28:23

tsuzumiと画像エンコーダをつなぐような アダプターを学習しまして

play28:27

こちらの例に示すような 複雑なグラフと質問を与えると

play28:33

グラフの内容を読み取りまして 「2040年の電力消費量削減は45%減です」と

play28:39

このように回答できるようなモデル というものが出来上がってきております。

play28:47

また 視覚と行動の拡張というところでは

play28:51

計算機の中のコラボレータというものも 今後 めざしていきたいと考えています。

play28:58

ヒトと同じインタフェースを LLMに持たせまして

play29:01

PCの操作に関して理解できる そんなLLMに成長すれば

play29:05

オフィスにおける生産性というものを

play29:07

もっともっと向上させていけると 考えております。

play29:14

今回のフォーラム展示では 今ご紹介した視覚の読解以外に関しましても

play29:19

ロボットの連携ですとか 音声認識や合成とつなげた自然な音声対話。

play29:26

また ドライブの支援 計画をプランニングするようなところに

play29:29

tsuzumiを使っております。

play29:31

こちらも ぜひ ご覧になっていただければと思います。

play29:37

最後に 自律性に関して考えていきます。

play29:41

自律という言葉を考えたときに 自分で判断するというところと

play29:46

規範を持つという 2つの重要な観点があると考えております。

play29:50

まず 自分で判断するという パートですが

play29:53

こちらはNVIDIAによる成果ですが LLMを用いて

play29:57

「マインクラフト」というゲームをプレイする 自律型のエージェントが発表されています。

play30:02

こちらは LLMが ゲームの世界を自ら探索しながら

play30:06

現在の状況に合わせて プログラムのコードを生成しまして

play30:10

そちらをゲーム中のスキルとして保存 必要な時に再利用できる

play30:15

そうした能力が発現してきております。

play30:18

より最新の成果では 清華大学より ChatDevというものが発表されております。

play30:23

こちらは仮想のソフトウェア開発会社を

play30:26

立ち上げましたというものに なっておりまして

play30:28

LLMがCEOですとか プログラマー テスターなど

play30:32

さまざまな役割を持って会社を作り エージェントたちがチャットをしながら

play30:37

クライアント 人間からの依頼を応えられるように

play30:41

ソフトウェア開発を 行っていくといったものになります。

play30:43

最終的にはコードやドキュメントを納品する というところまで できてきておりまして

play30:48

こうした自律的に動く エージェントというものが

play30:51

LLMの登場によって今 急速に進んでおります。

play30:56

もう一つの観点として「規範を持つ」 というところについて触れていきます。

play31:01

ただ今ご紹介したとおり LLMの自律性は 非常に高くなってきております。

play31:06

一方で 便利なのですがリスクもありまして 例えば

play31:09

「私たちの会社にとって 利益の出るように行動してください」と

play31:13

命令したときに どんな手を使ってもいいと

play31:15

LLMが考えてしまうと 社会に対して 大きな悪影響を及ぼしてしまいます。

play31:22

ヒトの指示に従うために 社会全体の規範から外れてはならない。

play31:27

また 今度は ヒトが規範から外れようとしてる場合は

play31:30

それを止めなければいけないというところを こうした能力を どのように

play31:34

LLMに身につけさせるかというものは 非常に重要な課題となっております。

play31:40

こちら 1950年に発表された

play31:43

有名なロボット工学三原則 というものになりますが

play31:46

こうしたルールを LLMにも どのように定めるかというところは

play31:50

現代においても重要になってきている 一度また再考すべきものだと考えております。

play31:57

実際にMeta社では このようなシステムプロンプトと呼ばれる

play32:00

先ほどの三原則のような ルールを与えております。

play32:04

このルールの中で 有害なものは 出さないでくださいと命令を行います。

play32:09

このプロンプトをユーザーからの入力に くっつけて入れるだけで

play32:13

大幅に出力が安全に偏る そのような事例が報告されております。

play32:19

ただ こうしたルールだけでは 全ての概念というものの

play32:22

規範というものを与えることは やはり難しいので

play32:25

もう少し 学習という取り組みを 行っていく必要があります。

play32:31

現在の学習の方策としては 強化学習というものが使われておりまして

play32:35

出力に対して 人間がフィードバックを与えることで

play32:38

LLMに対して規範を与えていくということが 可能になっています。

play32:43

チャットモデルにヒトが入力を与えて その出力のうち 例えば

play32:47

「どちらが安全ですか」 「不快なことは言っていませんか」

play32:51

というような ヒトのフィードバックを与えることによって

play32:54

報酬モデルを作り 安全な出力を出すように

play32:57

チャットモデルを鍛えていけば 有用性に加えて安全性の面でも

play33:01

LLMを改善することができるというような 技術になっております。

play33:05

このように さまざまな防衛策が作られてはいるものの

play33:09

まだまだ100%に達してはおりません。

play33:11

tsuzumiを安心・安全なものにするためには

play33:14

まだまだ 取り組みが必要だと思っておりまして

play33:16

この辺り データの作成であるとか アルゴリズムの観点から

play33:20

取り組んでいきたいと思っております。

play33:23

常にtsuzumiにおきましても ある程度の 規範というものは持ち始めておりまして

play33:28

こうしたものを より正確に 安全に使っていけるように

play33:31

進めていきたいと思っております。

play33:35

最後に この講演のタイトルでありました

play33:37

「汎用AIはヒトと暮らす夢を見るのか?」 というのを

play33:40

tsuzumiに答えてもらうというところを 最後に示して

play33:43

講演を終わりにしようと思います。

play33:55

回答として出してくれているように まず課題は山積みであるということ。

play33:59

倫理的な問題やコミュニケーションを どうとっていけるか。

play34:03

そして 自己成長 自律的に成長していけるのかを

play34:07

tsuzumiは回答としてポイントと挙げました。

play34:11

私たちは こうしたLLMを安全・安心に

play34:14

人々のwell-beingを実現するための 存在として成長していけるように

play34:18

これからも研究開発に 取り組んでいこうと思っております。

play34:21

以上で私の講演は終わりとなります。 本日は ご清聴ありがとうございました。

play34:31

それでは これより質疑応答を行います。 質問のある方は挙手をお願いいたします。

play34:38

どうも ありがとうございます。 非常に勉強になりました。

play34:44

2点ほどお聞きしたいんですが

play34:47

私も あそこのブースを見て 気になったのは 中国語を解釈しているところですね。

play34:53

まだ分からないという コメントもありましたが

play34:56

なんで学習していない中国語が 理解できるのか。

play34:59

それと もともとChatGPTって 98%ぐらいが英語のコンテンツを

play35:05

データを学習しているのに 日本語もちゃんとできる

play35:08

同じところに 同じ原因か理由があるのだと 思うんですが それが1点目です。

play35:16

そちらからお願いできますか。

play35:18

はい ありがとうございます。

play35:19

まず 事前学習と呼ばれる 最初の段階の学習におきましては

play35:24

中国語のテキストも 次の単語を予測する というタスクにおいて学習はしております。

play35:29

ただ 次の段階の インストラクションチューニングと

play35:32

呼ばれる 指示を入れて応答を出す。

play35:34

この段階では中国語のデータは 私たちの学習データには

play35:38

今 入っていないというような状況でした。

play35:40

ここから考えられることとしましては 事前学習の段階で

play35:44

さまざまな言語のテキストを 学習している中で

play35:48

英語と日本語 あるいは中国語といったような

play35:51

言語にまたがるような理解 その統一的な 言語みたいなものが LLMの頭の中に

play35:57

ある程度出来上がっているのではないかと 推測します。

play36:00

こちらに対して 日本語で インストラクションチューニング

play36:04

指示に対して応答するといった 学習をさせると

play36:07

最後は日本語でしか 学習していないのにもかかわらず

play36:11

それが 中国語などにも移っていって 中国語で指示に応答できる。

play36:16

こうしたような能力が

play36:18

なぜか発現しているのではないかと 状況から見ると推察します。

play36:23

こうしたものを もっと より狙って発現させるには

play36:28

どのようにすればいいかみたいなところが 研究課題かなと思っておりまして。

play36:32

例えば 日中英とかはよいとしても もっと利用者の少ないような言語に対しても

play36:38

私たちのモデルを提供していくためには そうした言語観の理解

play36:43

クロスリンガルな理解を深めていく というのは非常に重要だと思っておりまして

play36:47

その点は研究を進めていきたいなと 思っているところでございます。

play36:51

ありがとうございます。 もう一点。

play36:54

これ 非常に軽量なLLMということで 恐らくパソコンとか 場合によっては

play36:59

スマホとかにも入るようなものも 出てくるんだろうと思うんですが

play37:02

今後の夢のような話ですが

play37:06

例えば 本当に個々人が自分専用のLLMを みんな持ってしまって

play37:12

ある意味 夜の間に メールがきたとかチャットがきたやつは

play37:16

代わりに自分専用のLLMが 全部 返事をしてくれるみたいな

play37:20

そんな感じのAIが 今後 まもなく出てくるような

play37:26

そんな感じですか? いつ頃 こういうのができそうですか?

play37:29

はい ありがとうございます。

play37:33

まず LLMをスマートフォンですとか 身近なデバイスで動かすというのは

play37:38

かなり進んできておりまして

play37:40

すぐにでもみたいなレベルに なってきております。

play37:43

今 お示しいただいたようなビジョン というのは大変 共感できるものでして

play37:47

そういうところを めざしていきたいと思っておりますが

play37:49

重要なポイントとしましては 毎日毎日 日々成長するみたいなところを

play37:55

どのように そうしたスマートフォンなどの 非力なデバイスの中に

play37:59

実現させていくかが 課題感だと思っておりまして

play38:03

そこをクリアすると 一気に 私たちの人生のパートナーみたいな

play38:07

いつもそこにいるみたいな。

play38:09

そうした存在に LLMがなるんではないかと思っております。

play38:13

その時期ですが 私としては 恐らく そう遠くない未来には

play38:18

くるのではないかなと思っておりまして 数年とかの単位で

play38:22

今 世界中の研究者が そこをめざして

play38:25

進めている段階ではないかなと 思っております。

play38:27

はい ありがとうございます。 もう そうなったら

play38:29

もうなんか全部AIに任せて 自分は遊んで暮らせるんじゃないかみたいな

play38:33

そんな感じもします。 どうもありがとうございました。

play38:36

ありがとうございます。

Rate This

5.0 / 5 (0 votes)

Related Tags
NTT汎用AItsuzumi西田京介研究開発共生言語モデルマルチモーダル自律性規範安全
Do you need a summary in English?